GAIA MARCUS на Института Ada Lovelace: Регулирането би увеличило комфорта на хората с AI
Gaia Marcus, шеф в Института ADA Lovelace, управлява екип от откриватели, проверяващи един от най -трънките въпроси в изкуствения разсъдък: власт.
Съществува невиждана централизация на власт в ръцете на няколко огромни AI компании, защото стопанските системи и обществата се трансформират от технологията. Маркъс е на задача да подсигурява, че този преход е обективен. Нейният екип учи социално-техническите последствия от AI технологиите и се пробва да даде данни и доказателства в поддръжка на смислени диалози за това по какъв начин да се построяват и контролират AI системите.
В този диалог с кореспондента на AI на Financial Times Мелиса Хейкилки, тя изяснява за какво незабавно би трябвало да мислим за типа на обществото, което желаеме да изградим във възрастта на AI.
Melissa Heikkilä: Как попаднахте в това поле?
Gaia Marcus: Вероятно избрах неверния кон от портата, тъй че в последна сметка правех история, тъй като това беше нещо, в което бях добър, в който считам, че постоянно се случва, когато хората не знаят какво вършат по -нататък, тъй че те просто отиват с това, където имат най -силните степени. И по този начин, аз бях анализатор на обществената мрежа за RSA [базираното в Лондон Кралско сдружение за изкуства] в продължение на съвсем пет години. И аз се научих на разбора на обществените мрежи в края на моя магистър по правата на индивида, защото имаше работа, която желаех да свърша, и нямах умения за това.
Моята мама е преводач, който е бил самообразован, тъй че постоянно съм бил теоретичен, че се учиш на уменията за това, от което се нуждаете. По някакъв метод аз в последна сметка бях анализатор в продължение на съвсем пет години и това ме води повече към „ данни за положително “.
Направих може би още пет години в това цифрово „ данни за положително “ пространство в благотворителния бранш на Обединеното кралство, като ръководех екип за научноизследователска и развойна активност за Centrepoint, бездомната благотворителна организация, премествайки повече в тактиката на данните. Аз бях виновен за тактиката за данни на Паркинсон във Англия, когато видях, че държавното управление на Обединеното кралство се наема за началник на националната тактика за данни. Правих това от няколко години и по-късно бях към държавното управление общо шест и половина.
Винаги съм се озовал в области, в които има съставен елемент на обществената правдивост, тъй като считам, че това е един от главните ми мотиватори.
mh: Имаше време в АИ, където доста се замисляхме за публичното влияние. И в този момент имам възприятието, че сме създали няколко стъпки, или може би повече от няколко стъпки, обратно, и ние сме в тази фаза „ Нека изградим, да вървим, вървим, вървим “. Как бихте описали този миг в AI?
GM: Мисля, че това е в действителност фрагментиран миг. Мисля, че може би технологията се усеща по този начин, като че ли е направила крачка обратно от виновен AI. Е, хиперскалерите имат възприятието, че може би са създали крачка обратно, да речем, етично потребление на AI или отговорно потребление на AI. Мисля, че академията, която се концентрира върху AI, е толкоз фокусирана върху общественото влияние, колкото в миналото.
ми се коства, че все по -често хората водят разнообразни диалози. Ролята, която ADA може да играе в този миг, е, че като организация ние сме мост. Ние се стремим да разгледаме разнообразни способи за схващане на едни и същи проблеми, разнообразни типове интелигенции, разнообразни типове експертиза.
You see a lot of hype, of hope, of fear, and I think trying to not fall into any of those cycles makes us quite unique.
AI Exchange
This spin-off from our popular Tech Exchange series of dialogues examines the benefits, risks and ethics of using artificial intelligence, by talking to тези в центъра на неговото развиване.
Вижте останалите изявленията
mh: Това, което виждаме в Съединени американски щати, е, че избрани детайли на отговорност или сигурност са обозначени като „ събудени “. Страхувате ли се от тези неща, които се приземяват в Европа и подкопавате работата си?
GM: Срещата на върха на [Париж] AI беше много главен миг в моето мислене, защото ви сподели, че сме на този кръстопът. И има веднъж, който е път на съидейници, които работят дружно и в действителност се стремят да подсигуряват, че имат метод към AI и технологии, който е наведен в сходство с упованията на обществеността им, в който те имат лостовете да ръководят тласъците на фирмите, опериращи в техните граници.
И тогава имате различен път, който в действителност е обвързван с националния интерес, за постоянно слагане на корпоративни ползи върху хората. И мисля, че като хора сме доста неприятни и да надценяваме какъв брой смяна ще се случи в средносрочен проект, а по-късно в действителност не си мислим какъв брой промени в действителност са се случили в кратковременен проект. Наистина сме във фаза на калибриране. И по принцип мисля, че бизнесът и страните и държавните управления в действителност би трябвало постоянно да се питат какви са бъдещите, които се построяват с тези технологии, и това са бъдещето, в което нашите популации желаят да живеят.
MH: Вие сте създали доста проучвания за това по какъв начин общественият бранш, регулаторите и обществеността мислят за AI. Можете ли да говорите малко за някакви промени или смени, които виждате?
GM: През март стартирахме втория кръг от изследване, което направихме с Института Алън Тюринг, който наподобява, че схваща разбирането, излагането, излагането на обществеността, упованията на АИ, свързани с в действителност характерни случаи на приложимост, които съгласно мен са в действителност значими, и двете им очаквания за технологиите и страховете, които имат.
В миг, в който наподобява, че националните държавни управления се отдръпват от регулирането и където интернационалният диалог наподобява е подобен с дерегулатор или най-малко опростяване, наведено във Англия, най-малко виждаме нарастване на хората, които споделят, че законите и наредбите ще усилят комфорта им с AI.
И по този начин, последния път, когато организирахме национално представително изследване, 62 на 100 от обществеността на Обединеното кралство обявиха, че законите и регулацията им оказват помощ да се усещат удобно. Сега е 72 на 100. Това е много забележителна смяна за две години. ; От една страна, тези, които се стремят да оценят или схванат опциите на ИИ, постоянно са леко отвън стъпката с науката, тъй като всичко се движи толкоз бързо. ; Или най-малко във Англия, където имаме данни за това.
MH: Какъв съвет бихте дали на държавното управление? Има това голямо безпокойствие, което Европа изостава и държавните управления в действителност желаят да засилят вложенията и дерегулирането. Това ли е верният метод за Европа? Какво бихте предпочели да видите от държавните управления?
GM: За държавните управления е в действителност значимо да обмислят къде считат, че конкурентното им преимущество е към AI. Страни като Обединеното кралство и евентуално от Европа също са по -склонни да бъдат дейни при разполагането на AI, в сравнение с пограничния пласт.
Много от динамичността на надпреварата и диалога са фокусирани върху граничния пласт, само че в действителност, където AI инструментите ще имат действително въздействие върху хората, е на пласта за разполагане и точно там науката и теорията попадат на разхвърляни човешки действителности.
Един огромен урок, който доста имахме с проекта за благоприятни условия за AI, отлично е, че Обединеното кралство желае да бъде на шофьорската седалка, само че въпросът за мен е шофьорската седалка на какво? И в действителност нещо, което може би не сме виждали, е сложен разбор на това какви са характерните опасности и благоприятни условия за Обединеното кралство. Вместо да има 50 рекомендации, кои са главните неща за напредването на Обединеното кралство?
, където AI инструментите ще имат действително влияние върху хората, е на пласта на разрастване, и точно там, където науката и теорията за шлагер на човешките действителности
Тъй като социално-техническият е в действителност значимо, тъй като мисля, че би трябвало да има разлика сред това, което прави модел или евентуален инструмент или приложение в лабораторията, и тогава какво прави, когато влезе в контакт с човешките действителности. Ние в действителност бихме желаели държавните управления да вършат повече за това, че в действителност схващат какво се случва, по какъв начин нашите модели или артикули или принадлежности фактически се показват, когато те влизат в контакт с хората. И в действителност подсигурява, че диалозите към AI в действителност са планувани в доказателства и верния тип доказателства, вместо на теоретични изказвания.
MH: Тази година сътрудниците са огромно нещо. Всички са доста разчувствани от това и Европа несъмнено вижда това като опция за себе си. Как би трябвало да мислим за това? Това в действителност ли е обещан AI инструмент? Или може би, може би, някои опасности, за които хората в действителност не мислят, а би трябвало?
GM: Едно от първите неща е, че постоянно говорите за разнообразни неща. Мисля, че е в действителност значимо да реализираме специфика на това, което имаме поради, когато приказваме за сътрудници на AI.
Определено е правилно, че има системи, които са предопределени да вземат участие в течни и естествени езикови диалози с консуматори и те са предопределени да играят съответни функции в управлението и предприемането на дейности за потребителите. Мисля, че това е нещо, което виждате в екосистемата. Направихме някакъв неотдавнашен разбор на това, което виждаме до момента, и сме дезагрегирали AI асистенти, най-малко в три основни форми и съм сигурен, че ще има повече.
Единият е изпълнителен, тъй че неща като оператора на Openai, който в действителност подхваща дейности непосредствено по света от името на потребителя и това е много ниска автономност. Има сътрудници или асистенти, които са по -скоро като съветници, тъй че това са системи, които ще ви насочат, може би, тематика, с която не сте толкоз осведомени, или ще ви помогне да разберете какви стъпки би трябвало да предприемете, с цел да постигнете избрана цел.
Има бот за правна директива, наименуван DonotPay, и хората се пробват да създадат това от доста дълго време. Спомням си, когато работех в Centrepoint, имаше чатботи, които по никакъв метод не бяха сътрудници, само че те се стремяха да ви оказват помощ да разберете какво да вършиме с санкция за паркиране или да ви дадат доста съществени правни препоръки.
Тогава имаме тези събеседници, което е в действителност забавна област, за която би трябвало да помислим повече, които са помощници на ИИ, които беседват или имат разговор с потребителите и евентуално се стремят да разкрият особена смяна в психологичното положение на потребителя и те могат да бъдат като приложения за психологично здраве.
Има някои в действителност забавни въпроси за това къде е уместно тези асистенти на AI да се употребяват и къде не е. И те могат да се трансфорат в един от главните интерфейси, в които хората се ангажират с AI, изключително с генеративен AI. Те са доста персонализирани и персонализирани. Те са подобаващи за осъществяване на тези комплицирани отворени задания, тъй че може да видите, че това в действителност е мястото, където необятната общност стартира да се свързва с AI доста повече.
These tools could have considerable impacts on people’s mental or emotional states
And you might see that they’re used by the general public more and more, to carry out some early tasks that are associated with early AI асистенти. Може да видите, че това се трансформира в метод, по който доста решения и задания по-късно се делегират от междинен консуматор до AI. И има капацитет, че тези принадлежности биха могли да окажат доста влияние върху психологичните или прочувствените положения на хората. И по тази причина има капацитет за някои в действителност дълбоки последствия. ; Когато разглеждате много съсредоточен пазар, колкото повече асистентите на AI са интегрирани в живота на хората, толкоз повече се карате